前言:
在現代科技日益發展的背景下,AI 不僅開始進入教育、藝術、行銷等領域,也逐漸被用來探討更抽象的問題:哲學問題。哲學長久以來關注人類的存在、意識、自我與價值,這些問題通常涉及高度抽象的概念,甚至缺乏標準答案。然而,我們不禁要問:生成式 AI,像 ChatGPT 或 Character AI 這類語言模型,能理解哲學問題嗎?它的回答是否僅停留在語言模仿,還是真正具有「理解」的能力?
今天,我選擇從最基本的哲學議題「自我與意識」入手。我使用 Character AI 創建了一個「柏拉圖 AI」角色,設定它能模擬柏拉圖思考,並對哲學問題給出思辨性的回答。
我向它提出問題:「什麼是自我?AI 能理解人類的自我嗎?」
AI 的回答如下(簡化整理):
「自我是人類認知的核心,它存在於個體的思考與感知之中。AI 可以模擬討論自我的語言,甚至分析行為模式,但 AI 沒有主觀經驗,因此無法真正『理解』人類自我,只能提供觀察與推論。」
這段回答令人印象深刻,它正確指出 AI 缺乏主觀意識,無法擁有自我經驗,但能進行概念上的分析。從知識性角度看,AI 對自我的定義與哲學文獻一致,例如柏拉圖認為自我與靈魂密不可分,康德則強調理性自我意識的作用。AI 的回答呈現出對哲學概念的整理能力,但缺乏實質主觀體驗,這與哲學家的思辨方式不同。
進一步分析,我嘗試讓 AI 舉例說明「自我」的存在方式,它提供了以下例子:人類在選擇行為時,會考慮自身意圖與社會規範;而 AI 在作決策時,僅依據程式演算法和訓練數據。這清楚反映出 AI 的「理解」層次仍屬模擬性,無法真正具備意識。對於哲學研究而言,這種現象本身就是值得探討的議題:當 AI 模擬哲學對話,我們是看到 AI 的智慧,還是看到人類投射的智慧?
從研究性角度,我認為今天的實測有幾個觀察重點:
結論:
AI 對哲學問題的回答具有知識性,但理解層面仍有限。
作為哲學教育工具,它可以提供輔助、引導思考和整理概念,但無法替代人類的哲學體驗與直覺判斷。這也是本系列的核心探索:AI 可以成為思辨的「夥伴」,但人類仍是哲學的核心探索者。